4.2 하드웨어 복권 ( The Hardware Lottery)

1. 서론: 기술적 능력주의의 환상과 하드웨어의 보이지 않는 손

현대 컴퓨터 과학과 인공지능(AI)의 눈부신 발전사를 회고할 때, 학계와 산업계는 종종 매혹적인 서사에 사로잡힌다. 그것은 바로 ’과학적 능력주의(Scientific Meritocracy)’라는 신화다. 이 관점에 따르면, 역사 속에서 살아남은 알고리즘과 소프트웨어, 그리고 아키텍처는 그것이 가장 우수하고 효율적이며 지적으로 탁월했기 때문에 선택된 것이다. 우리는 최적의 기술이 자연스러운 경쟁을 통해 승리했다고 믿는다. 그러나 이러한 믿음은 기술 발전의 이면에 작동하는 거대한 구조적 힘, 즉 **‘하드웨어 복권(The Hardware Lottery)’**의 존재를 간과한 결과이다.

구글 리서치(Google Research)의 사라 후커(Sara Hooker)가 제창한 ‘하드웨어 복권’ 개념은 연구 아이디어의 성공과 실패가 그 아이디어의 내재적 가치보다는, 그 시대에 가용한 하드웨어 및 소프트웨어와의 ’호환성(Compatibility)’에 의해 결정된다고 주장한다.1 이는 마치 복권 당첨처럼, 특정 시점의 하드웨어 환경과 우연히 맞아떨어진 아이디어만이 생존하고 발전하며, 그렇지 못한 아이디어는 아무리 혁신적이라 해도 사장되거나 수십 년간 암흑기(Winter)를 겪게 된다는 것을 의미한다.

본 보고서는 하드웨어 복권이 인공지능 연구의 궤적을 어떻게 왜곡시켜 왔는지, 그리고 우리가 ’승자’라고 믿는 현재의 딥러닝 기술이 사실은 최적의 해답이 아닌, 특정 하드웨어(GPU)의 제약 조건에 맞춰진 ’지역 최적해(Local Optimum)’일 수 있음을 심층적으로 분석한다. 특히, 로보틱스와 엠바디드 AI(Embodied AI) 분야에서 현재의 하드웨어 패러다임이 야기하는 심각한 비효율성을 진단하고, 이를 극복하기 위한 미래의 하드웨어-소프트웨어 공진화(Co-evolution) 방향을 모색한다.

핵심 개념정의 및 함의
하드웨어 복권 (Hardware Lottery)연구 아이디어의 성공이 아이디어의 우수성이 아닌, 가용 하드웨어와의 적합성에 의해 결정되는 현상.
상실된 수십 년 (The Lost Decades)알고리즘은 존재했으나 하드웨어의 불일치로 인해 혁신이 지연된 기간 (예: 1980년대의 신경망).
경로 의존성 (Path Dependence)초기 하드웨어의 성공이 후속 연구 방향을 고착화시켜, 다른 가능성의 탐구를 비용적으로 불가능하게 만드는 현상.
공동 설계 (Co-design)알고리즘과 하드웨어를 독립적으로 개발하는 것이 아니라, 상호 최적화를 통해 하드웨어 복권의 한계를 극복하려는 접근 방식.

2. 역사적 분석: 범용 컴퓨팅 시대와 신경망의 암흑기

2.1 폰 노이만 아키텍처의 독재와 병목현상

컴퓨터 과학의 초기 역사는 하드웨어 복권이 어떻게 특정 연구 분야를 억압할 수 있는지를 보여주는 가장 극명한 사례를 제공한다. 1940년대 존 폰 노이만(John von Neumann)에 의해 정립된 **폰 노이만 아키텍처(Von Neumann Architecture)**는 데이터와 명령어를 저장하는 메모리와 이를 처리하는 중앙처리장치(CPU)를 분리하는 구조를 채택했다. 이 구조는 순차적 논리 처리(Sequential Logic Processing)와 복잡한 분기 명령을 수행하는 데 탁월한 성능을 발휘했다. 당시의 컴퓨팅 자원은 극도로 비쌌고, 프로그래머가 기계어를 직접 다루어야 했기 때문에, 범용성을 가진 CPU 중심의 설계는 경제적으로나 기술적으로 합리적인 선택이었다.2

그러나 이러한 구조적 특징은 인공지능의 한 갈래인 ‘연결주의(Connectionism)’, 즉 인공 신경망(Artificial Neural Networks)에는 치명적인 독으로 작용했다. 신경망은 본질적으로 수많은 뉴런이 동시에 상호작용하는 대규모 병렬 처리(Massively Parallel Processing)를 요구한다.

  • 폰 노이만 병목(The Von Neumann Bottleneck): CPU와 메모리 사이의 단일 통로(Bus)는 데이터 이동의 한계를 가져왔다. 신경망 학습의 핵심인 행렬 곱셈(Matrix Multiplication)을 수행하기 위해서는 막대한 양의 가중치(Weight) 데이터를 메모리에서 CPU로 끊임없이 날라야 했다. CPU는 한 번에 하나의 명령어만 처리할 수 있었기에, 수백만 개의 파라미터를 가진 신경망을 학습시키는 것은 물리적으로 불가능에 가까운 시간과 에너지를 소모했다.2

이러한 하드웨어적 제약은 연구자들로 하여금 신경망이 ’실현 불가능한 이론’이라고 믿게 만들었다. 1969년 민스키(Minsky)와 페퍼트(Papert)가 저서 《Perceptrons》에서 단층 퍼셉트론의 한계를 지적했을 때, 학계가 이를 받아들이고 신경망 연구를 중단한 배경에는 “어차피 다층 신경망을 학습시킬 하드웨어가 없다“는 암묵적인 체념이 깔려 있었다.

2.2 상실된 수십 년 (The Lost Decades)과 기호주의의 승리

하드웨어 복권의 가장 비극적인 결과는 ’상실된 시간’이다. 딥러닝의 핵심 알고리즘인 **역전파(Backpropagation)**는 이미 1963년에 제안되었으며, 1970년대와 80년대에 반복적으로 재발명되었다. 심지어 현대적 합성곱 신경망(CNN)의 원형인 네오코그니트론(Neocognitron)은 1980년에 등장했고, 르쿤(LeCun)의 CNN은 1989년에 이미 필기체 인식에 성공했다.2

그러나 1980년대부터 2000년대 초반까지 AI의 주류는 신경망이 아닌 **기호주의(Symbolic AI)**와 **전문가 시스템(Expert System)**이었다. 이는 당시의 하드웨어 환경이 논리 프로그래밍 언어인 LISP이나 PROLOG를 실행하는 데 최적화되어 있었기 때문이다.

  • LISP 머신과 전용 하드웨어의 실패: 1980년대에는 기호주의 AI를 위한 전용 하드웨어인 ’LISP 머신’이 등장했으나, 범용 CPU(x86 등)의 급격한 성능 향상(무어의 법칙)과 가격 경쟁력을 이기지 못하고 시장에서 사라졌다. 이는 하드웨어 복권이 단순히 성능뿐만 아니라 ’경제성’과 ’범용성’이라는 요인에 의해 결정됨을 보여준다. 무어의 법칙은 범용 CPU의 성능을 18개월마다 두 배로 증가시켰고, 이는 특수 목적 하드웨어를 개발하는 비용과 리스크를 정당화하기 어렵게 만들었다.3
  • 알고리즘의 강제적 변형: 하드웨어 지원을 받지 못한 신경망 연구자들은 모델을 축소하거나, 하드웨어 친화적인 다른 알고리즘(예: 서포트 벡터 머신, SVM)으로 전향해야 했다. 이는 연구의 방향이 ’지능의 본질 탐구’가 아닌 ’가용 하드웨어에 대한 최적화’로 변질되는 결과를 낳았다.

3. 우발적 전용화: GPU의 등장과 딥러닝의 폭발

3.1 에디슨의 축음기와 GPU의 굴절적응(Exaptation)

기술의 역사에서 가장 혁신적인 도구들은 종종 발명가의 의도와는 전혀 다른 용도로 사용될 때 세상을 바꾼다. 에디슨은 축음기를 죽어가는 사람의 유언을 남기거나 시각 장애인을 위한 책 읽기 도구로 고안했으나, 대중은 이를 음악을 듣는 엔터테인먼트 기기로 재정의했다. 사라 후커는 **GPU(Graphics Processing Unit)**가 현대 AI에 미친 영향을 바로 이 ’에디슨의 축음기’에 비유한다.2

1990년대 후반, NVIDIA와 같은 회사들은 비디오 게임 시장의 성장에 힘입어 3D 그래픽 렌더링을 위한 전용 가속기인 GPU를 개발했다. 그래픽 렌더링은 화면의 수백만 픽셀에 대해 색상과 조명을 동시에 계산해야 하므로, 본질적으로 대규모 병렬 처리 능력을 요구했다. 이는 CPU와는 정반대의 설계 철학이었다.

  • 행렬 연산의 우연한 일치: 2000년대 중반, 일부 선구적인 연구자들은 그래픽 처리를 위한 수학적 연산(선형 대수, 행렬 곱셈)이 신경망 학습에 필요한 연산과 놀라울 정도로 유사하다는 사실을 깨달았다.
  • CUDA라는 열쇠: NVIDIA가 2007년 CUDA(Compute Unified Device Architecture)를 발표하며 GPU를 그래픽 외의 범용 연산(GPGPU)에 사용할 수 있도록 개방하자, 전 세계의 연구자들은 수백억 원짜리 슈퍼컴퓨터에서나 가능했던 병렬 연산 능력을 개인 PC에서 사용할 수 있게 되었다.

3.2 2012년 알렉스넷(AlexNet): 하드웨어 복권의 당첨

2012년 이미지넷(ImageNet) 경진대회에서 알렉스넷(AlexNet)이 압도적인 차이로 우승한 사건은 딥러닝 시대의 개막을 알린 신호탄이었다. 그러나 기술적 관점에서 냉정하게 분석하면, 알렉스넷의 알고리즘(CNN, ReLU, Dropout 등)은 이미 1980~90년대에 이론적으로 정립되어 있던 것들이었다.

알렉스넷의 승리는 **“알고리즘의 혁신”**이라기보다는 **“하드웨어 복권의 당첨”**이었다. 1980년대의 알고리즘이 2010년대의 게임용 하드웨어(GPU)와 대규모 데이터(ImageNet)를 만나 비로소 잠재력을 폭발시킨 것이다. 이는 과학적 진보가 선형적이지 않으며, 하드웨어라는 촉매제가 없으면 아무리 뛰어난 아이디어도 수면 아래 잠복해 있을 수밖에 없음을 증명한다.5

3.3 승자 독식과 경로 의존성의 심화

GPU의 성공은 역설적으로 새로운 형태의 하드웨어 복권을 강화했다. 이제 AI 연구 생태계는 GPU 아키텍처에 최적화된 방향으로 급격히 쏠리기 시작했다.

  • 소프트웨어 스택의 고착화: 텐서플로우(TensorFlow), 파이토치(PyTorch)와 같은 딥러닝 프레임워크는 기본적으로 GPU 가속(CUDA)을 전제로 설계되었다. 이로 인해 GPU에서 효율적으로 동작하는 연산(예: Dense Matrix Multiplication)을 사용하는 연구는 쉽게 구현되고 빠르게 검증되는 반면, 그렇지 않은 연산(예: 희소 행렬, 동적 그래프, 비동기 연산)을 사용하는 연구는 구현 난이도가 높고 실행 속도가 느려 경쟁에서 도태된다.3
  • 연구의 획일화 위험: 현재의 트랜스포머(Transformer) 모델이 지배하는 LLM 트렌드 역시 GPU의 메모리 대역폭과 병렬 처리 능력에 극도로 최적화된 결과물이다. 이는 연구자들에게 “GPU에서 잘 돌아가는 모델“만을 연구하도록 유도하는 강력한 인센티브로 작용한다. 사라 후커는 이를 두고 **“잘 닦인 길(The Beaten Path)을 벗어나는 비용이 점점 더 비싸지고 있다”**고 경고한다.1

4. 현재의 위기: 로보틱스와 엠바디드 AI의 하드웨어 불일치

GPU가 데이터 센터와 가상 세계의 AI를 정복하는 동안, 물리 세계와 상호작용해야 하는 **로보틱스(Robotics)**와 엠바디드 AI(Embodied AI) 분야는 심각한 하드웨어 복권의 패배를 겪고 있다. 데이터 센터용으로 설계된 하드웨어를 이동형 로봇에 억지로 이식하려는 시도는 에너지, 지연 시간(Latency), 그리고 폼 팩터(Form Factor)의 삼중고를 야기하고 있다.

4.1 뇌와 신체의 분리: 클라우드 의존의 한계

최신 로봇 제어 기술인 시각-언어-행동 모델(VLA, Vision-Language-Action Models), 예를 들어 구글의 RT-2PaLM-E는 거대 언어 모델(LLM)의 추론 능력을 로봇 제어에 접목하려 한다.8 그러나 이들 모델은 수십억 개의 파라미터를 가지며, 실행을 위해 막대한 GPU 자원을 필요로 한다.

  • 무선 테더링(Wireless Tethering)의 위험: 로봇 본체에 H100과 같은 고성능 GPU를 탑재할 수 없으므로, 로봇은 센서 데이터를 클라우드로 보내고 클라우드에서 계산된 행동 명령을 다시 받는 방식을 취한다. 이는 통신 지연, 네트워크 불안정 시의 마비, 보안 문제 등을 야기한다. 0.1초의 지연이 발생하면 챗봇은 사용자가 눈치채지 못하지만, 균형을 잡아야 하는 이족 보행 로봇은 넘어져 파손될 수 있다.10
  • 에너지 비효율성: 인간의 뇌는 약 20와트(Watt)의 에너지로 복잡한 인지 판단과 운동 제어를 동시에 수행한다. 반면, 현재의 GPU 기반 AI 시스템은 동일한 작업을 위해 수백 와트에서 수 킬로와트의 전력을 소모한다. 배터리로 동작해야 하는 모바일 로봇에게 이러한 전력 소모는 치명적이다. 엣지 디바이스와 클라우드 간의 에너지 소모 격차는 단순히 배터리 수명의 문제를 넘어, 로봇의 자율성을 제한하는 근본적인 족쇄가 된다.11

4.2 프레임 기반 처리와 실시간성의 충돌

현재의 컴퓨터 비전 하드웨어는 비디오를 정지 영상의 연속(Frame-based)으로 처리한다. 이는 영화를 보거나 사진을 분류하는 데는 적합하지만, 연속적인 시간 속에서 빠르게 움직이는 로봇에게는 비효율적이다.

  • Corki 프로젝트의 시사점: 최근 ’Corki’와 같은 연구는 현재의 로봇 제어 파이프라인이 알고리즘 개발자의 편의를 위해 설계되었을 뿐, 로봇의 실시간성을 무시하고 있음을 지적한다. LLM 추론, 로봇 제어, 데이터 통신이 순차적으로 이루어지는 현재의 구조는 지연 시간을 누적시킨다. 이를 해결하기 위해 궤적 예측을 통한 비동기 처리와 하드웨어-알고리즘 공동 설계(Co-design)가 시도되고 있으나, 여전히 주류 GPU 생태계와의 호환성 문제로 어려움을 겪고 있다.10
  • 쉐이키(Shakey)의 유령: 1960년대 최초의 자율 로봇 ’쉐이키’는 연산 속도의 한계로 인해 “조금 움직이고, 멈춰서 한참 생각하고(연산하고), 다시 움직이는” 방식을 취했다. 반세기가 지난 지금, 최첨단 LLM 기반 로봇들도 유사한 문제에 봉착해 있다. 클라우드 추론의 대기 시간 동안 로봇이 멈칫거리는 현상은 하드웨어가 여전히 엠바디드 지능(Embodied Intelligence)을 뒷받침하지 못하고 있음을 보여준다.13

5. 차세대 하드웨어 복권의 도전자들

현재의 GPU 독주 체제에 균열을 내고 새로운 하드웨어 복권 추첨을 기다리는 기술들이 존재한다. 이들은 현재의 딥러닝 트렌드와는 맞지 않아 ’패자’로 보일 수 있지만, 미래의 AI, 특히 로보틱스와 엣지 AI에서는 ’승자’가 될 잠재력을 가지고 있다.

5.1 뉴로모픽 컴퓨팅 (Neuromorphic Computing): 생물학적 모방

뉴로모픽 컴퓨팅은 폰 노이만 구조를 탈피하여, 인간 뇌의 신경망 구조를 하드웨어 레벨에서 모방하려는 시도다. 인텔의 Loihi, IBM의 TrueNorth, 맨체스터 대학의 SpiNNaker 등이 대표적이다.15

  • 스파이킹 신경망 (SNN): 뉴로모픽 칩은 연속적인 수치가 아닌, 전압 스파이크(Spike) 신호를 통해 정보를 처리한다. 데이터가 변할 때만 신호를 보내는 ‘이벤트 기반(Event-driven)’ 처리를 통해, 아무런 변화가 없는 부분에서는 전력을 거의 소모하지 않는다.
  • 압도적인 효율성: 연구 결과에 따르면, 뉴로모픽 칩은 특정 작업(제스처 인식, 경로 탐색 등)에서 기존 CPU/GPU 대비 100배 이상의 에너지 효율과 **초저지연(Ultra-low latency)**을 보여준다.17 이는 배터리 제약이 심한 로봇이나 드론에 이상적이다.
  • 왜 아직 승리하지 못했나?: 하드웨어 복권의 전형적인 문제다. 현재의 딥러닝 알고리즘(역전파)은 미분 가능한 연속 함수를 전제로 하므로, 불연속적인 스파이크 신호를 다루는 SNN을 학습시키기 어렵다. 또한, CUDA와 같이 성숙한 소프트웨어 개발 도구가 부족하여 진입 장벽이 매우 높다.19
비교 항목GPU 기반 딥러닝 (현재의 승자)뉴로모픽 컴퓨팅 (잠재적 도전자)
처리 방식동기식, 프레임/배치 기반 처리비동기식, 이벤트 기반(Event-driven) 처리
핵심 연산밀집 행렬 곱셈 (Dense Matrix Multiplication)희소 스파이크 전달 (Sparse Spike Propagation)
에너지 효율낮음 (항시 전력 소모)매우 높음 (이벤트 발생 시만 소모)
주요 강점빅데이터 처리, 높은 정확도, 쉬운 학습초저지연, 초저전력, 실시간 적응성
적용 분야서버 사이드 AI, LLM, 생성형 AI엣지 AI, 로보틱스, 센서 퓨전

5.2 아날로그 및 광 컴퓨팅 (Analog & Optical Computing)

디지털 0과 1이 아닌, 전압의 크기나 빛의 위상을 이용하여 연산을 수행하는 방식이다.

  • 물리학을 이용한 연산: 빛의 회절 현상이나 렌즈의 특성을 이용하면, 복잡한 푸리에 변환이나 행렬 곱셈을 빛의 속도로, 전력 소모 거의 없이 수행할 수 있다.4
  • 한계점: 아날로그 신호는 노이즈에 취약하고 정밀도가 떨어진다. 또한, 현재의 디지털 시스템과 데이터를 주고받기 위한 변환 과정(ADC/DAC)에서 병목 현상이 발생한다. 그러나 최근 연구들은 이러한 아날로그 하드웨어의 ’불완전성’을 노이즈로 취급하지 않고 학습 과정의 일부로 통합하려는 시도를 하고 있다.21

5.3 인메모리 컴퓨팅 (Compute-In-Memory, CIM)

폰 노이만 병목을 해결하기 위해, 메모리 내부에서 직접 연산을 수행하는 기술이다. 데이터 이동을 최소화하여 에너지 효율과 처리 속도를 획기적으로 높일 수 있다. 특히 멤리스터(Memristor)와 같은 차세대 소자를 활용하여 시냅스의 가중치를 하드웨어적으로 구현하려는 연구가 활발하다.23

6. 하드웨어 복권 극복을 위한 미래 전략: 공동 설계(Co-design)

하드웨어 복권의 역사적 교훈은 명확하다. 하드웨어와 알고리즘을 독립적으로 개발해서는 혁신의 속도를 따라갈 수 없으며, 특정 하드웨어의 독점적 지위는 기술의 다양성을 해친다는 것이다. 이를 극복하기 위해 학계와 산업계는 **하드웨어-소프트웨어-알고리즘 공동 설계(Co-design)**로 나아가야 한다.

6.1 ’범용’에서 ’전용’으로의 회귀와 딜레마

무어의 법칙이 둔화되면서, 구글의 TPU(Tensor Processing Unit)와 같이 특정 워크로드(텐서 연산)에 특화된 **ASIC(Application-Specific Integrated Circuit)**이 다시 부상하고 있다.25 이는 효율성을 극대화하지만, 동시에 “하드웨어 복권“의 위험을 높인다. 하드웨어가 현재의 알고리즘(예: 트랜스포머)에 너무 과하게 최적화(Overfitting)되면, 트랜스포머를 뛰어넘는 새로운 아키텍처가 등장했을 때 하드웨어가 그 혁신의 발목을 잡을 수 있다.

따라서 미래의 하드웨어는 **재구성 가능성(Reconfigurability)**을 핵심 가치로 삼아야 한다. FPGA(Field-Programmable Gate Array)나 CGRA(Coarse-Grained Reconfigurable Architecture)와 같이 소프트웨어적으로 하드웨어의 구조를 변경할 수 있는 유연한 아키텍처가 중요해질 것이다.

6.2 오픈 소스 하드웨어와 연구 민주화

하드웨어 개발의 높은 비용(수백억 원의 제작비, 수년의 설계 기간)은 소수의 빅테크 기업만이 복권 번호를 선택할 수 있게 만든다. RISC-V와 같은 **오픈 소스 명령어 집합 아키텍처(ISA)**와 오픈 소스 칩 설계 도구들은 하드웨어 개발의 민주화를 이끌고 있다. 더 많은 연구자가 저비용으로 다양한 하드웨어 아이디어를 실험할 수 있게 될 때, 우리는 단 하나의 ’당첨 번호’에 의존하지 않고 다채로운 기술 생태계를 조성할 수 있을 것이다.3

6.3 물리학 기반 AI (Physics-based AI)

궁극적으로는 디지털 추상화의 계층을 허물고, 물리학 그 자체를 계산의 도구로 사용하는 패러다임 전환이 필요하다. 로봇의 기계적 신체 반응(Dynamics) 자체를 일종의 연산 과정으로 해석하는 **‘형태학적 연산(Morphological Computation)’**이나, 소자의 물리적 확률성을 학습에 활용하는 연구21는 하드웨어 복권의 룰 자체를 바꿀 수 있는 잠재력을 지닌다.

7. 결론: 복권을 넘어, 필연적 혁신을 향하여

“하드웨어 복권“은 우리에게 겸손함을 요구한다. 현재 우리가 누리고 있는 AI의 황금기는 인류 지성의 필연적 승리가 아니라, GPU라는 특정 하드웨어의 우발적 성공에 기반한 불안정한 토대 위에 서 있다.

특히 물리 세계로 AI가 진출해야 하는 로보틱스와 엠바디드 AI 시대에, 데이터 센터용 하드웨어 패러다임을 고집하는 것은 더 이상 유효하지 않다. 상실된 수십 년을 되풀이하지 않기 위해서는, 현재의 승자(GPU/Transformer)에 안주하지 않고, 뉴로모픽, 아날로그, 인메모리 컴퓨팅과 같은 ’낙첨된 복권’들을 다시 들여다보아야 한다.

미래의 혁신은 소프트웨어 엔지니어가 트랜지스터의 물리학을 이해하고, 하드웨어 설계자가 신경망의 학습 원리를 깊이 파악하여, 이 둘을 하나의 유기체처럼 설계할 때 비로소 가능해질 것이다. 하드웨어 복권의 승자가 우연히 결정되기를 기다리는 것이 아니라, 다양한 하드웨어와 알고리즘이 공존하며 서로를 진화시키는 **기술적 다원주의(Technological Pluralism)**를 구축하는 것, 그것이 제2의 AI 겨울을 막고 진정한 지능형 기계를 구현하는 유일한 길이다.

이 보고서의 분석은 사라 후커의 원본 논문과 최근의 엣지 AI, 로보틱스, 뉴로모픽 컴퓨팅 관련 연구 결과들을 종합하여 작성되었다. 하드웨어 복권은 단순한 과거의 역사가 아니라, 지금 이 순간에도 우리의 연구 방향과 미래를 결정짓고 있는 현재진행형의 현상이다.

8. 참고 자료

  1. The Hardware Lottery: Sara Hooker | PDF | Graphics Processing Unit, https://www.scribd.com/document/490478747/2009-06489
  2. The Hardware Lottery, https://hardwarelottery.github.io/
  3. The Hardware Lottery - arXiv, https://arxiv.org/pdf/2009.06489
  4. The Hardware Lottery: the cost of straying off the beaten path - Medium, https://medium.com/@LightOnIO/the-hardware-lottery-the-cost-of-straying-off-the-beaten-path-647c2e6a72c0
  5. (PDF) Collective Intelligence for Deep Learning: A Survey of Recent …, https://www.researchgate.net/publication/356631295_Collective_Intelligence_for_Deep_Learning_A_Survey_of_Recent_Developments
  6. Neuromorphic Artificial Intelligence Systems - arXiv, https://arxiv.org/pdf/2205.13037
  7. [R] The Hardware Lottery: “The advent of domain specialized …, https://www.reddit.com/r/MachineLearning/comments/iuw094/r_the_hardware_lottery_the_advent_of_domain/
  8. RT-2: Vision-Language-Action Models, https://robotics-transformer2.github.io/
  9. Google PaLM-E: An Embodied Multimodal Language Model - Reddit, https://www.reddit.com/r/singularity/comments/11klzjm/google_palme_an_embodied_multimodal_language_model/
  10. Software-Hardware Co-Design For Embodied AI Robots - arXiv, https://arxiv.org/html/2407.04292v4
  11. Can neuromorphic computing help reduce AI’s high energy cost? - NIH, https://pmc.ncbi.nlm.nih.gov/articles/PMC12595464/
  12. Quantifying Energy and Cost Benefits of Hybrid Edge Cloud - arXiv, https://arxiv.org/html/2501.14823v2
  13. How Much Does it Take to Redo Shakey the Robot?, http://ais.informatik.uni-freiburg.de/publications/papers/speck17ral.pdf
  14. Shakey the robot - Wikipedia, https://en.wikipedia.org/wiki/Shakey_the_robot
  15. Neuromorphic Computing 2025: Current SotA - human / unsupervised, https://humanunsupervised.com/papers/neuromorphic_landscape.html
  16. Benchmarking Neuromorphic Hardware and Its Energy Expenditure, https://www.researchgate.net/publication/361060989_Benchmarking_Neuromorphic_Hardware_and_Its_Energy_Expenditure
  17. Beyond GPUs: Why Neuromorphic Chips Could Power the Future of AI, https://www.nasdaq.com/articles/beyond-gpus-why-neuromorphic-chips-could-power-future-ai
  18. Neuromorphic force-control in an industrial task: validating energy …, https://arxiv.org/html/2403.08928v1
  19. Neuromorphic Computing and the Future Robotics - Medium, https://medium.com/@ConcernedhumanonAI/neuromorphic-computing-and-the-future-robotics-9e2f6f6daad1
  20. Neuromorphic computation in space and time - kth .diva, https://kth.diva-portal.org/smash/get/diva2:2001119/FULLTEXT01.pdf
  21. Solving the compute crisis with physics-based ASICs - arXiv, https://arxiv.org/pdf/2507.10463
  22. Analog Physical Systems Can Exhibit Double Descent - arXiv, https://arxiv.org/html/2511.17825
  23. Robotic computing system and embodied AI evolution: an algorithm …, https://www.jos.ac.cn/en/article/doi/10.1088/1674-4926/25020034
  24. Deep Bayesian active learning using in-memory computing hardware, https://pmc.ncbi.nlm.nih.gov/articles/PMC11774754/
  25. Irregular Workloads at Risk of Losing the Hardware Lottery, https://www.researchgate.net/publication/372349629_Irregular_Workloads_at_Risk_of_Losing_the_Hardware_Lottery
  26. Research Portal - Outplaying the hardware lottery for embedded AI, https://research.kuleuven.be/portal/en/project/3E230402
  27. Projects - esat-micas - KU Leuven, https://micas.esat.kuleuven.be/collaborate/projects
  28. Neuromorphic engineering: Artificial brains for artificial intelligence, https://pmc.ncbi.nlm.nih.gov/articles/PMC11668493/
  29. Vision Language Action (VLA) Models Powering Robotics| Exxact Blog, https://www.exxactcorp.com/blog/deep-learning/vision-language-action-vla-models-powers-robotics
  30. Preventing the Immense Increase in the Life-Cycle Energy and …, https://www.engineering.org.cn/engi/EN/10.1016/j.eng.2024.04.002